Световни новини без цензура!
Топ списък с политически дълбоки фалшификации за злонамерено използване на AI, DeepMind открива
Снимка: ft.com
Financial Times | 2024-07-12 | 13:44:04

Топ списък с политически дълбоки фалшификации за злонамерено използване на AI, DeepMind открива

Генерираните от изкуствен интелект „ дълбоки фалшификации “, които се показват за политици и звезди, са доста по-разпространени от опитите за потребление на AI за подкрепяне на хакерски атаки, съгласно първото проучване на Гугъл DeepMind разделя на най-честите злонамерени използва на авангардната технология.
Проучването споделя, че основаването на реалистични, само че подправени изображения, видео и аудио на хора е съвсем два пъти по-често от идната най-голяма корист с генеративни AI принадлежности: подправянето на информация благодарение на текстови принадлежности, като чатботове, за генериране на дезинформация за издание онлайн.

Най-честата цел на участниците, злоупотребяващи с генеративния AI, е да оформят или повлияят на публичното мнение, анализът, извършен с звеното за проучване и развиване на групата за търсене Jigsaw, открито. Това съставлява 27 % от употребите, подхранвайки страхове за това по какъв начин deepfakes може да повлияе на изборите в международен мащаб тази година.

Deepfakes на премиера на Обединеното кралство Риши Сунак, както и на други международни водачи, се появиха в TikTok, X и Instagram през последните месеци. Избирателите в Обединеното кралство гласоподават идната седмица на общи избори.

Широко публикувано е безпокойството, че макар напъните на обществените медийни платформи да маркират или отстраняват сходно наличие, публиката може да не го разпознае като подправено и разпространяването на наличието може да повлияе на гласоподавателите.

Арди Янджева, теоретичен помощник в Института Алън Тюринг, назова „ изключително подходящо “ констатацията на вестника, че замърсяването на обществено налична информация със наличие, генерирано от AI, може да „ изкриви нашето групово схващане за социално-политическа действителност ”.

Янджева добави: „ Дори и да не сме сигурни за въздействието, което дълбоките имитации имат върху изборното държание, това деформиране може да бъде по-трудно видимо в непосредствена вероятност и съставлява дълготрайни опасности за нашите демокрации. “ p> John ThornhillОпасността от deepfakes не е това, което си мислите

Проучването е първото по рода си от DeepMind, отдела за изкуствен интелект на Гугъл, управителен от сър Демис Хасабис, и е опит за количествено установяване на рисковете от потреблението на генеративни принадлежности за изкуствен интелект, които най-големите софтуерни компании в света изстреляха на обществеността в търсене на големи облаги.

Тъй като генеративните артикули като ChatGPT на OpenAI и Gemini на Гугъл стават все по-широко употребявани, фирмите за изкуствен интелект стартират да следят потока от дезинформация и друго евентуално нездравословно или неетично наличие, основано от техните принадлежности.

През май OpenAI разгласява проучване, разкриващо, че интервенции, свързани с Русия, Китай, Иран и Израел, са употребявали неговите принадлежности за основаване и разпространяване на дезинформация.

„ Имаше доста разбираеми неща угриженост по отношение на много комплицирани хакерски атаки, улеснени от тези принадлежности “, сподели Нахема Марчал, водещ създател на проучването и откривател в Гугъл DeepMind. „ Докато това, което видяхме, бяха много постоянно срещани злоупотреби с GenAI [като deepfakes, които] може да останат под радара малко повече. “ 

Изследователите на Гугъл DeepMind и Jigsaw проучиха към 200 следени случая на корист сред януари 2023 година и март 2024 година, взети от обществените медийни платформи X и Reddit, както и от онлайн блогове и медийни известия за корист.

Втората най-често срещана мотивация зад злоупотребата беше да се вършат пари, без значение дали се оферират услуги за основаване на дълбоки подправени изображения, в това число генериране на голи изображения на действителни хора, или потребление на генериращ AI за основаване на части от наличие, като подправени новинарски публикации.

Проучването откри, че множеството произшествия употребяват елементарно налични принадлежности, „ изискващи минимални механически знания “, което значи, че повече неприятни участници могат да злоупотребят с генеративния AI.

Изследването на Гугъл DeepMind ще повлияе на това по какъв начин усъвършенства своите оценки за тестване на модели за сигурността и се надява, че ще повлияе и на метода, по който неговите съперници и други заинтригувани страни виждат по какъв начин се „ демонстрират вредите “.

Източник: ft.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!